Loading...
 

Prywatność i nadzór w internecie

Jedną z podstawowych wartości internetu, która leżała u podstaw jego stworzenia, była wolność nie tylko w sferze osobistej, ale również społecznej, przejawiająca się w możliwości komunikowania się ze sobą wszystkich użytkowników podłączonych do globalnej Sieci (zob. Internet jako medium; Internet – ewolucja od Web 1.0 do Web 4.0 ). Wraz z dynamicznie rozwijającą się internetową siecią komunikacyjną badacze zaczęli zwracać jednak coraz większą uwagę na zagadnienia, które na samym początku rozwoju Sieci były pomijane – prywatność użytkowników oraz ich kontrolę. Według Alexandra R. Gallowaya [1] podstawową zasadą internetu nie była wolność, lecz kontrola (istniała od początku jego powstania), która opierała się na otwartości, integracji, uniwersalizmie i elastyczności oraz wynikała ze stopnia wysokiej organizacji technicznej sieci. Podobnie uważał Lawrence Lessig [2], który zwrócił uwagę na paradoks doświadczeń internetowych, podkreślając, że z jednej strony internet umożliwia jednostkom komunikowanie się z innymi w prywatnej przestrzeni domowej, ale z drugiej strony naraża ich na możliwość monitorowania i śledzenia działań internetowych przez rządy lub korporacji technologicznych. Wraz z nastaniem XXI wieku pojawiały się krytyczne koncepcje odnoszące się do prywatności w internecie, np. „państwa baz danych” (database nation), w którym doszło do „śmierci prywatności” [3] czy opisujące Sieć jako panopticon [4].

Badaczce w pierwszym okresie badań nad prywatnością i nadzorem w internecie koncentrowali się na prywatności społecznej (związanej z udostępnianiem danych osobowych przez użytkowników w internecie, w tym mediach społecznościowych i ich ochronie przed innymi użytkownikami) aniżeli na prywatności instytucjonalnej (związanej z udostępnianiem danych osobowych i cyfrowych korporacjom technologicznym) [5]. Badaczy interesował również zdecydowanie bardziej problem nadzoru ze strony rządów aniżeli firm technologicznych. Dopiero w drugiej połowie XXI wieku w związku z dominującą rolą przedsiębiorstw, których model biznesowy opierał się na gromadzeniu, przetwarzaniu i analizowaniu danych cyfrowych, oraz ich znaczącym wpływem na różne sfery życia zaczęto badać szerzej prywatność w kontekście danych generowanych przez użytkowników. Pojawiły się wówczas także takie koncepcje nadzoru, jak „kapitalizm nadzoru” (surveillance capitalism) Shoshany Zuboff czy „kultura nadzoru” (surveillance culture) Davida Lyonsa.

Definicja 1: Kapitalizm nadzoru


Koncepcja nowego kapitalizmu, sformułowana przez amerykańską badaczkę Shoshanę Zuboff w 2015 roku, w której formę kapitału stanowią dane cyfrowe generowane przez użytkowników i urządzenia cyfrowe. Dla wielu firm są one jednocześnie surowcem (niezbędnym kapitałem do produkcji towarów, np. produktów, usług) oraz produktem (wytwarzanym przez cyfrową pracę ludzi korzystających z produktów oraz usług). W cyfrowym kapitalizmie, dane nie zastępują pieniędzy, ale są tak samo traktowane jak kapitał finansowy, w związku z czym muszą być ciągle pozyskiwane i przetwarzane poprzez tworzenie produktów i usług oraz infrastruktury, które generują dane. Kapitaliści nadzoru funkcjonują według dwóch komplementarnych modeli biznesowych: użytkownika jako klienta (You are the Costumer) oraz użytkownika jako produktu (You are the Product).

Wielu badaczy prywatności zauważało, że użytkownicy internetu z jednej strony obawiają się o swoją prywatność, ale z drugiej strony praktycznie nie są w stanie podjąć żadnych działań, aby ją chronić. Ta rozbieżność między postawami a zachowaniem została nazwana „paradoksem prywatności”, jednak w trakcie kilku badań nie stwierdzono istnienia związku pomiędzy obawami o prywatność w internecie a zachowaniami związanymi z ujawnianiem informacji o sobie w sieci [6]. Jak wskazują badacze, wpływ na różne poziomy ochrony prywatności użytkowników mają nie tyle postawy, co potrzeby, doświadczenia związane z naruszeniem przez innych prywatności oraz kompetencje cyfrowe. Sytuacja, w której dochodzi do naruszenia prywatności na skutek działania realnej osoby, jest częstsza i łatwiejsza do zaobserwowania niż wtedy, gdy użytkownicy doświadczają naruszenia prywatności w wyniku wykorzystania ich danych bez ich wiedzy i zgody przez firmy technologiczne, na przykład w formie sprzedaży danych innym podmiotom lub w celu profilowania. Ponadto algorytmiczna personalizacja treści, może być postrzegana przez użytkowników jako korzystna, zwłaszcza dla tych, którzy nie mają motywacji lub umiejętności dostosowywania treści do własnych preferencji. W związku z tym użytkownicy pomimo iż są świadomi naruszania prywatności przez firmy technologiczne, decydują się tego typu praktyki ze względu na określone korzyści.

Unia Europejska, jeszcze przed tzw. aferą Cambridge Analytica, jako pierwsza podjęła działania, których celem było ograniczenie śledzenia użytkowników w sieci przez podmioty komercyjne i tym samym ochrona prywatności. Od maja 2018 roku obowiązuje Rozporządzenie Parlamentu Europejskiego i Rady w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych (w skrócie: RODO) https://eur-lex.europa.eu/legal-content/PL/TXT/PDF/?uri=CELEX:32016R0679&from=PL(external link), które reguluje takie zjawiska jak: dopasowywanie reklam do preferencji użytkowników internetu w czasie rzeczywistym, profilowanie wyników wyszukiwania i strumieni aktualności czy monitorowanie aktywności użytkowników za pośrednictwem „inteligentnych” sensorów. Wprowadzono także szereg innych zmian m.in. zapewniono użytkownikowi już w wersji domyślnej przeglądarki ustawienia przyjazne dla niego, zlikwidowano praktyki zwane cookie-wall, polegające na braku dostępu do treści online przy jednoczesnym wyrażeniu braku zgody na śledzenie, zapewniono zgodę użytkownika na wszystkie rodzaje niezamówionych komunikatów reklamowych, w tym reklamy targetowanej w mediach społecznościowych, zapewniono poufność komunikacji elektronicznej zarówno w odniesieniu do treści, jak i metadanych oraz prywatność danych przechowywanych i emitowanych przez urządzenia, które takie dane generują.

Uwaga 1:


Zapisy RODO wymusiły na wielu internetowych podmiotach, w tym Google czy Facebooku, zmianę polityki prywatności dostosowaną do zapisów rozporządzenia. Jednak pomimo to podejmowane przez nich działania oferują użytkownikowi tak naprawdę złudzenie kontroli nad prywatnością i są formą manipulacji nim. Firmy stosują niekorzystne dla użytkownika rozwiązania, takie jak: przyjazne dla firmy domyślne ustawienia prywatności pojawiające się wyskakujących okienkach, kilkuetapowe i przez to bardziej uciążliwe procedury zarządzania prywatnością (w przeciwieństwie do „jednego kliknięcia” dla zgody na przetwarzanie danych), styl komunikacji oraz interfejsu nakłaniający do wyrażania zgody, a w przypadku jej braku zwracanie uwagi na brak korzyści bądź negatywne skutki czy stosowanie strategii „bierz albo zrezygnuj” (take it or leave it) – użytkownik może albo zaakceptować warunki, albo usunąć konto.

Zadanie 1:

Treść zadania:
Podyskutujcie w małych grupach (3-4 osoby), w jaki sposób chronicie swoją prywatność społeczną oraz instytucjonalną. Jak moglibyście chronić ją jeszcze bardziej? Czy korzystacie z jakichś technologicznych „zagłuszaczy” nadzoru?

Zadanie 2:

Treść zadania:
Czy zgadasz się, że stwierdzeniem, że współcześnie ceną, jaką płacimy za korzystanie z internetu, jest nasza prywatność? Uzasadnij swoją odpowiedź.

Zadanie 3:

Treść zadania:
Obejrzyj na platformie Netflix film dokumentalny „Hakowanie świata” (reż. Karim Armer, Jehane Noujaim, 2019) na temat afery Cambridge Analityca. Jaki związek miała ona z prywatnością oraz nadzorem? Jak wpłynęła na społeczeństwo?


Materiały dodatkowe
Otwarty dostęp do wszystkich numerów czasopisma „Surveillance & Society”: https://ojs.library.queensu.ca/index.php/surveillance-and-society/index(external link)

Źródło: Fundacja Panoptykon, Odzyskajmy sprawczość - David Lyon, Panoptykon 4.0, 13.03.2020 (dostęp 22.09.2020). Dostępne w YouTube: https://youtu.be/xrN9cdfsqzE(external link)

Bibliografia

1. Galloway, A. R.: Protocol: How Control Exists after Decentralisation, MIT Press, Cambridge–London 2004, pp. 142-143.
2. Lessig, L.: Code, version 2.0, Basics Books, New York 2006, p. 224, dostęp:28.08.2020
3. Garfinkel, S.: Database nation. The Death of Privacy in the 21st Century, O’Reilly Media, Beijing & Cambridge 2000.
4. Katz, J. E., Rice, R. E.: Social consequences of Internet use: Access, involvement, and interaction, MIT Press, Cambridge 2002.
5. Raynes-Goldie, K.: Aliases, creeping, and wall cleaning: Understanding privacy in the age of Facebook, First Monday 2010, Vol. 15, Nr 1-4, dostęp:22.08.2020
6. Ptaszek, G.: Edukacja medialna 3.0. Krytyczne rozumienie mediów cyfrowych w dobie Big Data i algorytmizacji, Wydawnictwo Uniwersytetu Jagiellońskiego, Kraków 2019, s. 250-251, dostęp:28.08.2020

Ostatnio zmieniona Wtorek 19 z Styczeń, 2021 19:57:18 UTC Autor: Grzegorz Ptaszek
Zaloguj się/Zarejestruj w OPEN AGH e-podręczniki
Czy masz już hasło?

Hasło powinno mieć przynajmniej 8 znaków, litery i cyfry oraz co najmniej jeden znak specjalny.

Przypominanie hasła

Wprowadź swój adres e-mail, abyśmy mogli przesłać Ci informację o nowym haśle.
Dziękujemy za rejestrację!
Na wskazany w rejestracji adres został wysłany e-mail z linkiem aktywacyjnym.
Wprowadzone hasło/login są błędne.